搜索资源列表
analyzer
- 一个简单的网页分析器 系统需求: 1. 编写Socket客户端访问WEB服务器,获取网页至本地硬盘; 2. 分析第1步中抓取的网页内容,找出所有图片链接URL信息。3. 统计第1,第2步中下载文件(包括网页文件与图片文件)的大小(即字节数和); 4. 统计第1,第2步所消耗的时间和; 5. 在屏幕上打印该WEB网页的访问速度(bytes/second) = 下载文件总大小/下载总耗时。
Arachnid_src0.40
- 利用JAVA实现的网络蜘蛛,具有从网络抓取网页的功能
lucene
- lucene 是java 的版的搜索引擎公共模块, 本人使用此模块, 已经开发实现了网页的抓取。
collectEmail
- 最近一直琢磨着写一个网络蜘蛛程序,专门负责收集一些自己感兴趣的东西。用.net写程序从网上取得网页源码比较容易实现,蜘蛛程序的难点在于两个方面,一是如何多线程的自动化处理(即从一个地址跳到另一个地址),另一个是从网页中提取指定的信息。自动化处理方面正在研究,从网页中提取信息,我觉得网上某些网友用String/StringBuilder来处理的方法不可取,用“正则表达式”无疑是最好的。尽管“正则表达式”不容易书写,但查一查资料,还是不难的。 以下是我写的一个从网页中抓取EMail的方法,可
getMIMA
- 抓取网页密码,很有意思的程序,值得下载。
PickUpURL
- 一个抓取网页中的链接的程序,并且可以把这些URL改在本地,实现离线浏览
webspider
- 用java写的一个网络蜘蛛,他可以从指定的URL开始解析抓取网页上的URL,对于抓取到的URL自动分成站内外URL,并可以设置抓取的深度。
dl
- [功能] 本源码是一个因特网下载工具。他可以扫描整个网站的页面及各种图片音频视频等资源,你可以给这些待下载的资源设定最小的大小。 程序还使用了一个剪切板钩子(HOOK),使用它监控任何拷贝到剪切板中的文字,如果你复制了一个URL网页链接或者是一个URL的图片等链接,程序会立即弹出一个对话框让你配置下载任务。 用户可以通过设置文件名和文件大小,来下载整个站点的资源,或限制下载图片等等。 本质上来说,这是一个网络蜘蛛,可以多线程抓取网站。
zhang
- 页面抓取新闻并自动生成网页的代码 有兴趣的可以看看,很有意思的东西
Sources
- 这是一个从指定网页格式分离单词的小程序,自动从链接抓取分析其它可用链接,然后对所有链接进行分析找到可用页面然后分离中英文单词,并进行分类。
EnterInfo
- delphi中用消息循环抓取网页文本,有源码,可以进行2次开发-news cycle using text crawls website, source code can be developed for 2nd
网络爬虫
- 本人自己用VC++开发的网络爬虫程序,可以实现整个网站的抓取,网页中所有的URL重新生成.-I own VC++ development with the network of reptiles procedures, can crawl the entire site, the page URL to re-generate all.
spider 用java实现的网络爬虫
- 用java实现的网络爬虫,用来抓取网页图片。可以抓取美女图片到本地硬盘哦-Achieved using java web crawler, to crawl the page image. You can capture beautiful images to your local hard Oh
NetTrafficButton1.0.rar
- 通过抓取网页中的流量信息来实现实时网络流量监控,用于大学校园的校园网应用,Crawl through the page flow of information to achieve real-time network traffic monitor for the campus of the University Campus Network Application
VB_NET_Ie7Clone.rar
- VB.NET的Web浏览器IE7的克隆选项卡式浏览器 描述:这是一个例子写的vb.net浏览器使用的。 NET Framework 2.0 ( Visual Studio 2005中) 。这是一个标签式网页浏览器。这表明许多例子与新的浏览器控制和加载文件。你会发现在这个例子中是:基本浏览器的导航和功能,搜索服务提供商的代码,与收藏,显示如何显示大多数的对话可以在Internet Explorer 7 ,文档浏览器,抓取图片的网页,确定,并与元素用户上空盘旋在加载的文件。还包括代码处理弹出包括
HTTP
- VC抓取网页内容,并下载保存至本地服务器,利用正则表达式提取并上传至数据库-VC crawl web content, and download and save to the local server, use regular expressions to extract and upload to the database
htmlcode
- 实现在直接抓取网页源码,直接打印出来,而不用先存放在某个文件里面再读取-Crawl the web to achieve the direct source, direct print
CSharpSpider
- c#实现网络爬虫实例,可以抓取网页链接。-Web Crawler c# implementation examples that can crawl the page link.
NekoHtml
- 基本功能:抓取指定网面指定表格的数据; 使用说明:输入指定网页地址,网页编码、表格索引,过滤行、旬索引或者过滤内容条件-Basic functions: crawl the specified network face designated form data Usage: Enter the specified web page address, web page encoding, indexing tables, filtration lines, or filter the con
java-spider
- 一个用JAVA写的网络爬虫,效率比较高。可以对网页中的URL进行选择性的抓取。-A written using JAVA Web crawler, more efficient. The URL of the page can be selectively crawl.